Un tempo l’intelligenza artificiale era riservata agli scienziati più brillanti, isolata nei migliori laboratori del mondo. Ora invece è a disposizione di chiunque abbia una connessione a Internet. Strumenti come ChatGPT, Voice.ai, DALL-E e altri hanno portato l’intelligenza artificiale nella vita quotidiana, ma a volte i termini usati per descriverne le capacità e il funzionamento interno sono tutt’altro che chiari.
Ecco 10 parole comuni che probabilmente sentirai associate al tuo strumento di intelligenza artificiale preferito, menzionate nel telegiornale della sera o citate al bar. Tenendo a portata di mano questo dizionarietto dell’IA ti manterrai sempre al corrente su tale argomento popolare (e talvolta controverso).
Allucinazione dell’IA
Quando una domanda lascia perplessa un’intelligenza artificiale, quest’ultima non sempre ammette di non conoscere la risposta. Invece di non rispondere inventa ciò che ritiene tu voglia sentire. Le risposte inventate sono dette allucinazioni dell’IA.
Un caso reale di una costosa allucinazione dell’intelligenza artificiale si è verificato a New York, dove un avvocato ha utilizzato ChatGPT per scrivere un ricorso. Il ricorso sembrava completo e corroborato da dei precedenti, che poi però sono risultati inesistenti.1 Era tutto frutto della “fantasia” dell’IA.
Apprendimento automatico
L’apprendimento automatico è parte integrante dell’IA, poiché le consente di imparare e migliorare continuamente. Senza istruzioni esplicite, l’apprendimento automatico consente all’IA di diventare più intelligente quanto più viene utilizzata.
Apprendimento profondo
Più il processo di pensiero di un’IA è simile a quello del cervello umano, più è probabile che l’IA sia accurata. L’apprendimento profondo consiste nell’addestrare un’intelligenza artificiale a ragionare e ricordare le informazioni come un essere umano, il che significa che la macchina è in grado di identificare i modelli e fare delle previsioni.
Contenuti generati dall’intelligenza artificiale
Per contenuti generati dall’intelligenza artificiale si intendono tutti i contenuti scritti o audiovisivi creati parzialmente o completamente da uno strumento dotato dell’intelligenza artificiale.
Se qualcuno usa l’IA per creare qualcosa, non significa necessariamente che abbia imbrogliato o che sia andato pericolosamente al risparmio. L’intelligenza artificiale è spesso un ottimo punto di partenza per stilare una bozza, per buttare giù delle idee o per affrontare in modo nuovo un problema.
Deepfake
Il deepfake, o profondo falso, è la manipolazione di una foto, di un video o di un audio per mostrare degli eventi mai accaduti. Spesso utilizzato per scenette umoristiche sui social media e nei post virali, il deepfake viene usato anche da personaggi poco raccomandabili per diffondere notizie false o truffare le persone.
Ad esempio, i politici vengono mostrati in pose e su sfondi poco lusinghieri. A volte il deepfake ha lo scopo di strappare una risata, ma altre volte il suo autore intende scatenare delle voci tali da portare al dissenso o da infangare la reputazione del soggetto della foto. Un consiglio per individuare un’immagine deepfake è quello di osservare le mani e i volti delle persone sullo sfondo. I deepfake spesso aggiungono o sottraggono dita o distorcono le espressioni facciali.
È in aumento anche la credibilità delle imitazioni audio assistite dall’intelligenza artificiale, considerate anch’esse come deepfake. Secondo il rapporto “Beware the Artificial Imposter” (Attenti all’impostore artificiale) di McAfee, il 25% degli intervistati a livello globale ha dichiarato di aver subito una frode vocale o che vi è incappato qualcuno di sua conoscenza. Il 77% delle persone prese di mira da una frode vocale ha perso denaro come conseguenza.
IA generativa
L’IA generativa è il tipo di intelligenza artificiale che alimenta molti degli attuali strumenti più diffusi, come ChatGPT, Gemini e Craiyon. Come una spugna, l’IA generativa assorbe enormi quantità di dati, che poi richiama per informare ogni risposta che crea.
IA responsabile
Non sono solo gli utenti a dover usare l’IA in modo responsabile, ma anche chi la progetta e programma deve agire alla stessa maniera. I tecnologi devono garantire che i dati da cui dipende l’IA siano accurati e privi di distorsioni. Questa diligenza è necessaria per confermare che le risposte dell’IA siano corrette e prive di pregiudizi.
IA spiegabile
L’IA spiegabile, o scatola bianca, è l’opposto dell’IA a scatola nera. Un modello di IA spiegabile mostra sempre il proprio lavoro e come è giunto alle sue conclusioni. L’IA spiegabile aumenta la fiducia nel risultato finale, perché si può verificare come è stata elaborata la risposta.
Scatola nera
Per capire il termine “scatola nera”, immagina l’IA come un sistema di ingranaggi, pulegge e nastri trasportatori racchiusi in una scatola. Se la scatola fosse trasparente potresti vedere in che modo ciò che entra viene trasformato nel prodotto finale. Alcune IA però sono definite “scatole nere” proprio perché non si sa in che modo l’IA giunge alle sue conclusioni. L’IA nasconde completamente il proprio processo di ragionamento. Verificare il lavoro di un’IA a scatola nera può essere un problema.
Senziente
Senziente è un aggettivo che significa che qualcuno o qualcosa è consapevole di sentimenti, sensazioni ed emozioni. Nei film futuristici che ritraggono l’intelligenza artificiale, il mondo dei protagonisti va a rotoli quando i robot diventano senzienti o quando “provano” delle emozioni simili a quelle umane. Sebbene questa sia un’ottima fonte di ispirazione per Hollywood, l’IA di oggi non è senziente. Non si immedesima nelle persone e non capisce il vero significato di felicità, eccitazione, tristezza o paura.
Quindi, anche se un’IA compone un racconto così bello da commuoverti, non sa che ciò che ha creato è toccante. Ha solo risposto a una richiesta, utilizzando uno schema per determinare ogni successiva parola da scegliere. 1The New York Times, “Here’s What Happens When Your Lawyer Uses ChatGPT” (Ecco cosa succede quando il vostro avvocato usa ChatGPT).